De la haine en ligne à la manipulation des opinions publiques, en passant par la censure d’un président en exercice, les enjeux démocratiques du numérique sont considérables. L’année 2020 marque un tournant, avec l’infodémie liée au Covid, caractérisée par une amplification sans précédent de la désinformation.
L’Europe mesure assez douloureusement les moyens limités qui sont les siens. Sa capacité à soumettre les plates-formes numériques à ses règles juridiques, au moins sur son territoire, n’épuise pas les enjeux juridiques au regard de la domination des plates-formes numériques américaines et chinoises. Si la régulation du numérique passe parfois par le recours à des lois extraterritoriales pour être plus effective, d’autres défis restent à relever.
La régulation des usages et des technologies est aussi nécessaire. L’évolution des technologies numériques permet en effet d’accréditer facilement toute sorte de théorie : la crédibilité de ces manipulations croît à mesure que l’intelligence artificielle se perfectionne.
Pour éviter que les deepfake amplifient ce problème, la proposition de règlement européen sur l’intelligence artificielle du 21 avril 2021 tente de poser quelques obligations de transparence. La réponse juridique reste cependant principalement nationale, la compétence normative appartenant aux États membres. L’UE cherche à agir en appui, à travers la régulation de son marché intérieur.
Désinformation et ingérences étrangères
La désinformation résulte souvent d’opérations d’influence et d’ingérences étrangères s’insérant dans une guerre hybride menée par des acteurs étatiques qui combinent cyberattaques, ciblage des infrastructures critiques, campagnes de désinformation et actions de radicalisation du discours politique.
Une trentaine d’États ont recours à ces stratégies de désinformation mais la Russie et la Chine sont identifiées comme les principales menaces.
L’UE est davantage préoccupée par la Russie que par la Chine, assumant ainsi une différence notable avec les États-Unis, même si elle se méfie du cyberespionnage chinois (comme le montrent ses initiatives autour de la cybersécurité des infrastructures de la 5G et des mesures d’atténuation prises pour limiter la participation de Huawei à la mise en place de ces infrastructures).
En France, le décret du 13 juillet 2021 a créé Viginum (« Service de vigilance et de protection contre les ingérences numériques étrangères »), qui est un service à compétence nationale, rattaché au Premier ministre et placé auprès du secrétaire général de la Défense et de la Sécurité nationale, chargé d’identifier des opérations impliquant, directement ou indirectement, un État étranger ou une entité non étatique étrangère et visant à la diffusion artificielle ou automatisée, massive et délibérée, par le biais d’un service de communication au public en ligne, d’allégations ou d’imputations de faits manifestement inexactes ou trompeuses de nature à porter atteinte aux intérêts fondamentaux de la Nation.
La réponse européenne reste modeste. Trois task forces ont été mises en place au sein du Service européen pour l’action extérieure (SEAE), avec des moyens limités. La task force East StratCom a été créer pour lutter contre les campagnes de désinformation russes en 2015. Deux task forces supplémentaires ont été mises en place depuis : la task force pour les Balkans occidentaux et la task force South pour les pays du Moyen-Orient, de l’Afrique du Nord et de la région du Golfe. Le projet EUvsDisinfo, mis en place par East StratCom diffuse sur sa base de données les cas de désinformation provenant des médias pro-Kremlin.
L’idée est louable, mais la mise en œuvre maladroite : le fait que le site EUvsDisinfo soit hébergé par le SEAE donne le sentiment d’une vérité officielle qui peut alimenter les phénomènes complotistes. L’Union a aussi mis en place un système d’alerte rapide pour coordonner rapidement la réponse européenne à la diffusion de fausses informations, qui n’a cependant encore jamais été employé.
Appréhender juridiquement les cyberattaques et les actes de cybermalveillance
Les campagnes de désinformation font partie des menaces hybrides qui peuvent toucher l’espace numérique et peuvent s’accompagner de cyberattaques et de piratage de réseaux.
La protection de l’intégrité des processus démocratiques passe donc aussi par la cyberrésilience des infrastructures électorales critiques pour lutter contre le hack and leak, ces intrusions ciblées en vue de collecter des informations sensibles et organiser des fuites (piratage et divulgation des informations avec ou sans falsification) devenues courantes au cours d’élections.
Le Conseil de l’UE adopte des mesures restrictives contre les auteurs de cyberattaques, même si l’on peut s’interroger sur l’efficacité de mesures de gel des avoirs et d’interdiction de voyager vers l’UE.
La campagne d’influence « Ghostwriter » inquiète aujourd’hui l’UE. Révélée en 2020, Ghostwriter, qui multiplie les actes de cyberintrusion et de cybermalveillance pour diffuser de faux contenus politiques, a été attribuée à la Russie. Mais la qualification de l’infraction n’est pas évidente. La cybermalveillance, le cyberespionnage et la diffusion de fausses informations ne sont pas toujours synonymes de cyberattaque.
Réguler les algorithmes
Les plates-formes numériques constituent un vecteur évident de perturbation des processus démocratiques. Cela est lié aux effets systémiques de leur modèle économique : celui-ci repose sur la collecte massive de données qui permettent d’établir un profil très précis des utilisateurs, donc de cibler les contenus qui leur sont adressés (microciblage politique).
L’affaire Cambridge Analytica a montré la fragilité des démocraties face aux campagnes de désinformation et de manipulation de l’opinion dont l’effet est démultiplié par des algorithmes alimentés par les données personnelles des citoyens.
À ce profilage des individus s’ajoute un déterminisme algorithmique : les algorithmes de classement et de recommandation ciblent, par un profilage comportemental, les publicités politiques, enfermant les utilisateurs dans une bulle informationnelle limitée aux contenus déterminés en fonction de leurs préférences personnelles.
Les algorithmes de recommandation contribuent ainsi très largement à l’amplification des discours non authentiques et à la viralité des fake news. Ils peuvent être facilement manipulés par des faux comptes de réseaux sociaux commandés par des robots (fermes à clics). La transparence des algorithmes et la levée de l’anonymat sont alors décisifs.
Le problème est loin d’avoir été résolu comme le montrent encore les révélations de Frances Haugen, cette lanceuse d’alerte qui a travaillé pour Facebook dans les services chargés de la lutte contre la désinformation, en 2021.
Les algorithmes des plates-formes, notamment américaines, sont conçus pour mettre en avant des contenus susceptibles d’attirer l’attention. La situation est différente pour les plates-formes chinoises dont les algorithmes servent davantage à surveiller les contenus et à diffuser le discours politique de Pékin.
La désinformation est aussi liée à des enjeux commerciaux : très génératrices de trafic, les fausses informations bénéficient particulièrement du modèle publicitaire d’Internet, qui rémunère au clic. La régulation juridique doit donc démonétiser la désinformation par la publicité.
La Commission européenne envisage d’imposer des restrictions au financement par la publicité des sites diffusant ouvertement des fausses informations et de sanctionner financièrement les entreprises qui participent à des opérations d’influence ou à des activités d’ingérence étrangère.
Les réseaux sociaux ne sont pas les seuls vecteurs de désinformation. Les services de communications électroniques, notamment les messageries privées, participent aussi des campagnes de désinformation. La protection de la vie privée et de la confidentialité des correspondances, concrétisés par le chiffrement de bout en bout utilisé de ces services, sont actuellement débattus, même si les experts en cybersécurité sont très réticents quant à l’instauration de backdoors.
Réguler les comportements
La bulle informationnelle dans laquelle s’enferment des citoyens qui ne s’informent que par des réseaux sociaux entretient ce phénomène. Les comportements des individus en ligne ont massivement alimenté en données des algorithmes et sont désormais, par un effet de rétroaction, modelés en retour par les algorithmes de recommandation.
La viralité des fake news est ainsi favorisée par les comportements humains dans une économie de l’attention : la vitesse de propagation de fausses nouvelles est plus importante que celle des informations vraies, parce qu’elles suscitent l’étonnement donc l’intérêt.
La régulation des réseaux sociaux pose la question de l’équilibre entre la liberté d’expression et les limites admissibles au nom de la protection des valeurs démocratiques. L’instauration de mesures perçues comme excessives pour lutter contre la désinformation peut générer des effets inverses à ceux souhaités, notamment le risque de sur-censure et de sur-modération.
La notion de fausse information
La loi française du 22 décembre 2018 relative à la lutte contre la manipulation de l’information définit une fausse information comme toute allégation ou imputation d’un fait dépourvu d’éléments vérifiables de nature à la rendre vraisemblable.
Le Conseil constitutionnel a précisé qu’il ne pouvait s’agir que d’allégations ou imputations inexactes ou trompeuses d’un fait de nature à altérer la sincérité du scrutin à venir. Cela ne couvre ni les opinions, ni les parodies, ni les inexactitudes partielles ou les simples exagérations.
Au niveau européen, la désinformation est définie dans le plan d’action pour la démocratie européenne de 2020 comme des contenus faux ou trompeurs diffusés avec l’intention de tromper dans un but lucratif ou politique et susceptibles de causer un préjudice public. La désinformation se différencie ainsi de la mésinformation par le critère de l’intention.
Le droit français, notamment la loi de 1881 sur la presse et le code électoral, encadre et sanctionne la diffusion de fausse information de longue date.
Ce cadre juridique s’est révélé inadapté au regard des nouveaux usages induits par le numérique en ce qu’il ne s’intéressait qu’à l’émetteur originel d’une fausse information et non aux personnes participant ensuite à la diffusion d’une information ayant perdu son caractère nouveau.
La loi de 2018 cherche à réguler le comportement de ceux qui, de bonne foi, diffusent des informations fausses et participent à les rendre virales. Pendant les trois mois précédant une élection nationale, les opérateurs de plates-formes en ligne dont le nombre de connexions sur le territoire français dépasse les 5 millions de visiteurs par mois doivent fournir aux utilisateurs une information « loyale, claire et transparente » sur l’identité des annonceurs de « contenus d’information se rattachant à un débat d’intérêt général ».
Les plates-formes doivent aussi prévoir un dispositif de signalement des fake news ; mettre en œuvre des mesures sur la transparence de leurs algorithmes, être transparentes sur la promotion des contenus issus d’entreprises de communication audiovisuelle, lutter contre les comptes propageant massivement de fausses informations, informer les utilisateurs sur l’identité de la personne leur versant des rémunérations en contrepartie de la promotion de contenus d’information.
Au niveau européen, les éléments de régulation sont fragmentés et insuffisants. Le RGPD protège les données personnelles même s’il est parfois difficile à faire respecter en pratique, surtout à l’égard de plates-formes qui opèrent à une échelle internationale et déterritorialisée.
Pour lutter contre la désinformation, l’UE ne dispose que d’un instrument non contraignant, le code de bonnes pratiques contre la désinformation auquel les plates-formes sont invitées à adhérer de façon spontanée depuis 2018, qui prévoit des mesures pour la transparence de la publicité à caractère politique, la fermeture des faux comptes ou la limitation de la monétisation des fausses informations.
Certaines obligations envisagées dans le Digital Services Act pourraient renforcer son action. Cette proposition de règlement envisage des formes de corégulation par des codes de conduite pour limiter les risques systémiques liés à la désinformation, en particulier des mesures de transparence pour la modération de contenus et la publicité.
Ce texte prévoit aussi l’obligation pour les très grandes plates-formes en ligne d’évaluer les risques systémiques liés à la manipulation intentionnelle de leurs algorithmes. La Commission européenne souhaite aussi proposer une législation sur la transparence du contenu politique sponsorisé.
Les enjeux sont vastes tant la lutte contre la désinformation est déséquilibrée pour les démocraties libérales. La voie la plus prometteuse, mais de long terme, reste une éducation au numérique pour éclairer les citoyens sur ces questions fondamentales.
Brunessen Bertrand, Professeure agrégée de droit public, Université de Rennes 1
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.